iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 4
0

已經進行了四天,還蠻有毅力~~(為了包包)

現在來講講機器的'偏見"吧

甚麼?機器也有偏見,我以為機器是最公正的!!!

但是事實就是這樣,

其實之前TIMES就有報導這樣的新聞3

https://time.com/5520558/artificial-intelligence-racial-gender-bias/

把蜜雪兒歐巴馬判斷成男性,一位女性還被判斷成男生的機率高達75%!!!(我的天呀)

所以說機器是存在偏見的,那為何呢?

這應該是因為機器學習的來源有關!沒錯就是"歷史資料"

想一下以前大多的科學家或是醫生大多都是男生對吧

當你只有輸入幾乎都是男生的資料當然很容易判斷成男生。

那要怎麼預防?

先來講一個混淆矩陣的概念

簡單的來說就是如下

https://ithelp.ithome.com.tw/upload/images/20190905/201201268hffaFso5t.png

大致上可以歸類成以下二分法的四種狀況

True Positive (TP):真正答對的意思 是圈答成圈
True Negative (TN):真正答錯的意思 是叉答成圈
False Positive (FP):答對的意思 是叉答成圈
False Negative (FN):答錯的意思 是圈答成叉

就好像以前皇帝要殺人的時候,寧可錯殺一個也不可以少殺一個的意思一樣

那實際是要怎麼做呢???

簡單的來就是要讓你的TP以及TN的準確率提高,FP、FN降低的意思

越需要精密的東西TP以及TN的準確率就要越高,FP、FN越低

當然GOOGLE也講了一個機會均等的的概念

不應該是因為是性別或是膚色等天生因素影響到真正的判讀,應該用例如成績、收入之類的來當作指標

先這樣,明天繼續。


上一篇
Day3 Machine Learning 3
下一篇
Day 5 Inclusive ML-2
系列文
非本科生的機器學習之旅25
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言